지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

시니어 겨냥 ‘AI 보이스 피싱’ 급증…지인 목소리 복제 신종 수법

시니어들을 겨냥한 사기가 극성을 부리고 있어서 주의가 요구된다. 사기 수법도 인공지능(AI)을 악용하는 신종 수법이 등장하는 등 갈수록 지능화되고 교묘해지고 있다. 연방 감사국에 따르면 지난해 전국적으로 5억7700만 달러가 사기범들의 수중에 흘러 들어갔다.     AI 음성 복제 보이스피싱   연방통신위원회(FCC)가 노년층을 대상으로 한 인공지능(AI) 음성 복제 사기 전화 주의보를 내렸다. 주로 소셜미디어 영상에서 목소리를 추출해 복제하고, 피해자에게 가족이나 지인이 위험에 처해 있는 것처럼 속여 돈을 요구하는 방식이다. 사기범들은 모바일 결제 앱이나 송금, 기프트카드 등으로 돈을 요구하며 “아무에게도 말하지 말라”고 피해자의 입단속을 한다.     FCC는 17일 소비자 경고를 통해 “노인을 대상으로 한 AI 음성 복제 사기가 새로운 수준의 정교함에 도달했다”며 주의를 당부했다.     이전에도 발신 번호를 조작해 피해자가 알고 있는 지인의 번호로 전화가 온 것처럼 보이게 하는 기술을 사용했지만, 이제는 지인의 목소리까지 도용해 속이고 있다.     상대를 속일 수 있는 정보는 주로 소셜미디어에서 얻는다. AI 기술을 사용해 소셜미디어에 업로드된 짧은 영상으로도 목소리를 진짜처럼 복제하고, 복제한 목소리를 전화 사기에 이용하는 것이다.     예를 들면 사기범들은 시니어에게 손자의 전화번호로 전화를 걸고, 손자의 목소리를 복제해 “감옥에 있으니 도와달라”는 식으로 돈을 요구한다. 실제 목소리와 구분할 수 없는 말투로 가족만 알 수 있는 사적인 정보를 얘기하기 때문에 속기 쉽다.     FCC는 “목소리를 믿지 말라"고 경고하며 “연락을 받았다고 주장하는 사람에게 반드시 확인 전화를 걸되, 알고 있는 전화번호를 사용하라”고 조언했다.     “아무에게도 말하지 말라”는 것도 흔한 수법이다. 부모에게 말하지 말라는 부탁이나 체포에 대한 비밀유지 의무가 있어 다른 사람에게 알리면 더 큰 문제가 생길 것이라고 위협하는 수법이다.   소셜 관련 사기 유형   시니어들이 유의해야 할 대표적인 사기 유형은 다음과 같다.   ▶“소셜번호가 정지됐습니다"= 사기범들은 사회보장국을 사칭해 전화한다. 그리고 의심스러운 정황으로 인해 “정지됐다”고 통보하면서 개인정보를 확인해주지 않거나 송금하지 않으면 법적 조치를 취할 수 있다고 협박한다. 하지만 사회보장국은 절대로 소셜번호를 정지시키거나 송금을 요청하지 않는다.     ▶“과다지급 연금 환수합니다"= 과다 지급된 연금을 기프트 카드나 암호화폐로 보내라고 하지만 사회보장국은 현금, 기프트 카드, 선불카드, 암호화폐, 송금 등을 절대 요구하지 않는다.   ▶“소셜넘버 확인 해주세요”= 만약 소셜번호나 은행 계좌번호를 확인해달라는 메시지를 받으면 보이스 피싱일 가능성을 의심해야 한다. 또 의심스러운 링크는 절대 클릭해선 안 된다.   ▶“보안 업데이트 다운로드 하세요”= 소셜연금 계좌의 보안 업데이트를 위해 다운로드 하라는 이메일도 흔한 사기 수법이다. 사회보장국은 다운로드 링크를 보내지 않는다.  김은별·김지민 기자시니어 보이스 음성 복제 송금 기프트카드 전화 사기

2025-03-30

‘AI 가짜 가족목소리’ 노인 대상 사기 급증

연방통신위원회(FCC)가 노년층을 대상으로 한 인공지능(AI) 음성 복제 사기 전화 주의보를 내렸다. 주로 소셜미디어 영상에서 목소리를 추출해 복제하고, 피해자에게 가족이나 지인이 위험에 처해 있는 것처럼 속여 돈을 요구하는 방식이다. 사기범들은 모바일 결제 앱이나 송금, 기프트카드 등으로 돈을 요구하며 “아무에게도 말하지 말라”고 피해자의 입단속을 하는 것으로 전해졌다.     FCC는 17일 소비자 경고를 통해 “노인을 대상으로 한 AI 음성 복제 사기가 새로운 수준의 정교함에 도달했다”며 주의를 당부했다.     이전에도 발신 번호를 조작해 피해자가 알고 있는 지인의 번호로 전화가 온 것처럼 보이게 하는 기술을 사용했지만, 이제는 지인의 목소리까지 도용해 속이고 있다.     상대를 속일 수 있는 정보는 주로 소셜미디어에서 얻는다. AI 기술을 사용해 소셜미디어에 업로드된 짧은 영상으로도 목소리를 진짜처럼 복제하고, 복제한 목소리를 전화 사기에 이용하는 것이다.     예를 들면 사기범들은 시니어에게 손자의 전화번호로 전화를 걸고, 손자의 목소리를 복제해 “현재 감옥에 있으니 도와달라”는 식으로 돈을 요구하는 것으로 나타났다. 실제 목소리와 구분할 수 없는 말투로 가족만 알 수 있는 사적인 정보를 얘기하기 때문에 속기 쉽다.     FCC는 “목소리를 믿지 말라”고 경고하며 “연락을 받았다고 주장하는 사람에게 반드시 확인 전화를 걸되, 알고 있는 전화번호를 사용하라”고 조언했다.     “아무에게도 말하지 말라”는 것도 흔한 수법이다. 부모에게 말하지 말라는 부탁이나 체포에 대한 비밀유지 의무가 있어 다른 사람에게 알리면 더 큰 문제가 생길 것이라고 위협하는 수법이다.   연방수사국(FBI) 인터넷 범죄 신고센터(IC3)에 보고된 노인 대상 사기 사례는 2023년 14%나 증가했다. 김은별 기자 [email protected]가족목소리 사기 전화 사기 노인 대상 음성 복제

2025-03-17

"가족 목소리로 걸려온 전화도 믿을 수 없다"

연방통신위원회(FCC)가 노년층을 대상으로 한 인공지능(AI) 음성 복제 사기 전화 주의보를 내렸다. 사기 전화는 주로 소셜 미디어 영상에서 목소리를 추출해, 피해자에게 가족이나 지인이 위험에 처해 있는 것처럼 속여 돈을 요구하는 방식이다.   사기범들은 모바일 결제 앱이나 송금, 기프트 카드 등으로 돈을 요구하며 "아무에게도 말하지 말라"고 피해자의 입을 막는다.   연방수사국(FBI) 인터넷 범죄 신고센터(IC3)에 보고된 노인 대상 사기 사례는 2023년 14%나 증가했다. 최근 연방 검찰청은 이와 유사한 수법으로 45개 주에서 범죄를 저지른 혐의로 25명을 기소하기도 했다.   시니어를 겨냥한 사기는 그 정교함이 새로운 수준에 이르고 있다. 이전에도 발신 번호를 조작해 다른 번호에서 전화가 온 것처럼 보이게 하는 기술을 사용해 왔다. 그러나 최근 AI 기술이 사용되면서 짧은 영상으로도 목소리를 진짜처럼 복제할 수 있다. AI 프로그램을 사용하면 사기범들이 원하는 모든 말을 실제 인물이 말하는 것처럼 만들어낸다. 상대를 속일 수 있는 정보는 소셜 미디어에서 얻을 수 있다. 예를 들면, 사기범들은 손자의 전화번호로 전화해 실제 목소리와 구분할 수 없는 말투로 가족만 알 수 있는 사적인 정보를 이야기하며 감옥에서 구해달라고 애원할 수도 있다.   FCC는 "목소리를 믿지 말라"고 경고하며 "연락을 받았다고 주장하는 사람에게 반드시 확인 전화를 걸되 알고 있는 전화번호를 사용하라"고 조언했다.   "아무에게도 말하지 말라"는 것도 흔히 수법이다. 부모에게 말하지 말라는 부탁이나 체포에 대한 비밀 유지 의무가 있어 다른 사람에게 알리면 더 큰 문제가 생길 것이라고 는 위협하는 방식이다. 안유회 객원기자노년층 사기 복제 노년층 음성 복제 가족 음성

2025-03-16

AI 음성 복제 사기 기승…스타링 조사 “4명중 1명 피해”

AI(인공지능)를 이용한 음성 복제 기술이 정교해지면서 이를 악용한 보이스 피싱에 대한 한인들의 주의가 요구된다.   영국 온라인 대출 전문기관 스타링뱅크가 성인 3000명을 대상으로 한 조사에서 응답자 4명 중 1명이 지난 1년 동안 AI 음성 복제 사기를 당했다고 CNN은 최근 보도했다.     특히 매체는 현재 AI를 이용한 음성 복제 기술 수준은 “수백만 명을 속일 수 있다”고 강조했다.   AI 음성 복제 수준이 복제 음성과 실제 음성을 구분할 수 없을 정도로 발달한 데다 유튜브와 틱톡 등 소셜미디어(SNS)에서 복제 대상의 음성 파일도 손쉽게 취득할 수 있어서 음성 복제를 악용한 보이스 피싱 등의 피해가 커질 수 있다고 분석했다. 3초 분량의 짧은 음성으로도 개인의 목소리를 그대로 카피할 수 있다는 게 AI 전문가들의 설명이다.   리사 그레이엄 스타링뱅크 최고 정보보안 책임자(CIO)는 “소비자들은 사기범들에 의해 음성 복제될 수 있다는 사실을 모르기 때문에 온라인에 본인들의 음성이 담긴 콘텐츠를 올린다”고 지적했다.     사기범들은 사기 대상을 물색해서 음성 복제를 한 후 SNS를 통해 친구, 가족 등 지인 관계를 파악하고 금전을 요구하거나 개인정보를 탈취하고 있는 것으로 알려졌다.   문제는 복제 기술 발달 수준에 대한 소비자 인식이 저조해서 복제 음성 사기에 대한 대응이 매우 부실하다는 것이다.     같은 조사에 따르면 응답자의 46%는 음성 복제 사기 유형이 존재한다는 사실조차 알지 못했다. 또 사기가 의심되더라도 사기범들이 요구한 금전을 지불할 것이라고 답한 비율도 8%였다.   매체는 음성 사기 피해 방지를 위한 방법으로 본인 음성의 노출을 자제하고 친인척이나 지인의 목소리로 금융 정보나 금전을 요구할 때는 다시 한번 해당 지인에게 연락해서 한 번 더 확인하는 게 좋다고 조언했다.   문자도 사기에 취약할 수 있어서 개인정보를 문자로 전송하거나 통화할 때도 유의해야 한다고 덧붙였다. 서재선 기자 [email protected]스타링 음성 음성 복제 복제 음성 음성 사기

2024-09-23

많이 본 뉴스




실시간 뉴스